چطور وب سایت را برای عنکبوت های گوگل سئو کنیم؟
ربات های گوگل یک سری نوع میباشند؟
قبلیاز اینکه به جذابترین و کاربردیترین نصیب این نوشتهی علمی برسیم، خوب میباشد توضیحی کوتاه در امر اشکال رباتهای گوگل داده گردد. به عبارتیطور که اشاره شد، موتورهای کاوش برای دیدن صفحه های و محتواهای آنها و چرخیدن در تارنما (ازطریق لینک و پیوندسازی داخلی) از نرمافزارها و ماشینهایی به کار گیری مینمایند که معمولا به آنها خزنده یا این که رباتهای خزنده گفته میشود. متخصص seo هر سایتی می تواند برای خزندگان آموزش سئو در مشهد شرایطی معلوم نماید (فولدر robots.txt).
در آن پوشه متخصص می تواند معلوم نماید ورود نوع خاصی از کراولرها به تارنما ممنوع میباشد. وی برای تعریفوتمجیدکردن قانون ها برای خزندگان از اسم خاص هرمورد استعمال مینماید. باتهای خزنده دردرجهیاولیه براساس اینکه وابسته به کدام موتور کاوش میباشند و دردرجهیدوم کاری که جاری ساختن می دهند با پسوندی (user-agent) شناخته میشوند. مثلا خزندگان گوگل که تنها محتواهای ویدئویی را میبینند و فهرست مینمایند با این اسم شناخته میشوند: Googlebot-Video یا این که Googlebot-News خزندگانی میباشند که تنها خبرها را ایندکس آموزش سئو مشهد مینمایند.
در حالتیکه متخصص seo سایتی به هر دلیلی نخواهد ویدئوهای سایتش ایندکس شوند، بهراحتی میتواند آن خزندگان (Googlebot-Video) را از ورود به تارنما جلوگیری کردن نماید. طبیعی میباشد همگیی گونه های خزندگان به یکاندازه اساسی نیستند و دارای تخصص seo زیرا میخواهد کل متحواهای سایتش چشم خواهد شد و در حاصل کاوش درجه بگیرد، دلیلی ندارد بخواهد خزندگان گوگل را از ورود به وب سایت ممانعت نماید. (می توانید لیست مهمترین باتهای گوگل را در developers.google.com ملاحظه کنید.)
چطور وب سایت را برای عنکبوت های گوگل باصرفه کنیم؟
چنانچه دارای تخصص بهینه سازی میخواهد وب سایت فارغ از ایراد و دردسر ایندکس خواهد شد، بایستی فعالیت را برای خزندگان گوگل شل نماید. یعنی کرالرها برای ورود به وب سایت و چرخیدن در صفحه ها نباید اختلال یا این که مانعی داشته باشند. بههمیناستدلال، قبلیازاینکه شغل های مربوطبه seo وبسایت صورت پذیرد، وبسایت را می بایست برای عنکبوتهای گوگل باصرفه کرد. (زیرا پیش از این در امر مداقه فولدر robots.txt و تارنما مپ سخن گردیدهاست، در مفاد ذیل به آنان اشاره نکردم.)
1. وبسایت نباید از نگاه فنی و تکنیکی فعالیت را برای خزندگان گوگل دشوار نماید
در طراحی وب سایت ممکن میباشد از گویشهای نرمافزارنویسی متفاوت و همینطور تکنولوژیهای مختلفی استعمال شود. معمولا برای ارتقاء سرعت وب سایت و پویاتر و تعاملیترکردن آن از AJAX و گویش نرمافزارنویسی جاوااسکریپ امداد گرفته میگردد. گوگل بارها اعلام نموده است که جاوااسکریپت ممکن میباشد عمل را برای کرالرها مشقت بار نماید و این منجر خواهد شد آنها نتوانند مجموع صفحه های را ببینند یا این که به طور کامل در تارنما بخزند. پس، دارای تخصص بهینه سازی وب سایت قبلیاز هرچیز می بایست با مجموعه فنی و پیشرفتدهندگان تارنما کلام نماید و مطمئن خواهد شد که مانعی فنی برای عمل خزندگان گوگل در وبسایت نیست.
2. نباید از لینک و پیوندسازی داخلی و ساخت و ساز محتوای با کیفیت غافل شد
پندار کنم پرنور شدهاست که چرا به رباتهای گوگل تیتر عنکبوت داده گردیدهاست. خزنده هنگامی وارد شیتای از وب سایت میگردد، در هر لینکی (چه داخلی یعنی به دیگر صفحه ها به عبارتی تارنما یا این که لندینگ پیجها چه فرنگی یعنی به تارنماهای دیگر) که در آن ورقه وجود داشته باشد هم میرود. یعنی محتوای لینک و پیوندها (صفحه ها) را نیز میبیند. بههمینادله سفارش میگردد که لینک و پیوندهای فرنگی ازنوع Nofollow باشد تا عنکبوت از تارنما بیرون نشود و به گشتن فی مابین صفحه ها به عبارتی وبسایت ادامه دهد.
بههمینعامل، لینک و پیوندسازی داخلی می بایست بااعتنا صورت بپذیرد تا خزنده درمیان صفحه ها و محتواهای متفاوت بچرخد و صفحه های بیشتری را ببیند. یادتان باشد که crawl budget هر تارنما بیغایت وجود ندارد. یعنی محصور میباشد و بات خزنده هربار که به وب سایت راز میزند قادر است صرفا تنی چند از صفحه های را ببیند و ایندکس نماید. ازطرف دیگر، کرالرهای گوگل به دنبال محتوای با کیفیت و بهروز نیز می باشند. هرچه خزندگان گوگل یک شیت از وب سایت را بیشتر ببینند و محتوای آن شیت بهروز و کیفیت خوب باشد، شانس اینکه آن شیت منزلت بهتری بگیرد بیشتر می شود.
3. حالت حضور و عمل باتهای گوگل در تارنما بایستی بهتوجه زیرنظر گرفته خواهد شد
عمل خزندگان گوگل و سهمی که در بهینه سازی تارنما دارا هستند، آنقدر اساسی میباشد که در Google Search Console هم بخشی به آنها تخصیص داده گردیدهاست. دارای تخصص seo قادر است شرایط نقشه وب سایت، ارورها و همینطور داده های عددی خزندگان (Crawl Stats) را مشاهده نماید. باکمکتصاحب کردن از سرچ کنسول بهراحتی میشود خطاهای کراول را یافت و برطرف کرد (در راهنمای کاملی باعنوان «هرآنچه که می بایست از خطاهای کراول یا این که crawl errors بدانید + راهنمای رفع آنها» کامل درباره ی این ایرادات کلام گردیدهاست).
در نصیب Settings سرچ کنسول آیتمای وجود دارااست بهاسم Crawl Stats. در آن گزارش جامعی از اینکه خزندگان گوگل چطور و چنددفعه در مقطعی وقتی مشخصی در وبسایت خزیدند وجود دارااست. متخصص seo در همین ابزار قادر است از گوگل بخواهد تا نرخ خزیدن یا این که Crawl rate را کمتر نماید. نرخ خزیدن تعداد درخواستهایی میباشد که باتهای گوگل هنگام خزیدن از وب سایت دارا هستند. هنگامی این تعداد بالا باشد ممکن میباشد مشکلاتی برای تارنما پیش بیاید. در شرایطیکه متخصص seo بخواهد مطمئن خواهد شد که خزندگان برگهای را دیدند و آن کاغذ ایندکس گردیده است، قادر است در سرچ کنسول این مسئله را تحقیق کند. این قابلیت نیز وجود دارااست که در حالتیکه تغییراتی در شیتی ایندکسگردیده تاسیس شده است از گوگل خواست تا کراولرها را مجدد به آن کاغذ بفرستد.